句子嵌入通常用于文本聚类和语义检索任务中。最先进的句子表示方法基于大量手动标记句子对集合的人工神经网络。高资源语言(例如英语或中文)可以使用足够数量的注释数据。在不太受欢迎的语言中,必须使用多语言模型,从而提供较低的性能。在本出版物中,我们通过提出一种培训有效的语言特定句子编码的方法来解决此问题,而无需手动标记数据。我们的方法是从句子对准双语文本语料库中自动构建释义对数据集。然后,我们使用收集的数据来微调具有附加复发池层的变压器语言模型。我们的句子编码器可以在不到一天的时间内在一张图形卡上进行培训,从而在各种句子级的任务上实现高性能。我们在波兰语中评估了八个语言任务的方法,并将其与最佳可用多语言句子编码器进行比较。
translated by 谷歌翻译
The evolution of wireless communications into 6G and beyond is expected to rely on new machine learning (ML)-based capabilities. These can enable proactive decisions and actions from wireless-network components to sustain quality-of-service (QoS) and user experience. Moreover, new use cases in the area of vehicular and industrial communications will emerge. Specifically in the area of vehicle communication, vehicle-to-everything (V2X) schemes will benefit strongly from such advances. With this in mind, we have conducted a detailed measurement campaign with the purpose of enabling a plethora of diverse ML-based studies. The resulting datasets offer GPS-located wireless measurements across diverse urban environments for both cellular (with two different operators) and sidelink radio access technologies, thus enabling a variety of different studies towards V2X. The datasets are labeled and sampled with a high time resolution. Furthermore, we make the data publicly available with all the necessary information to support the on-boarding of new researchers. We provide an initial analysis of the data showing some of the challenges that ML needs to overcome and the features that ML can leverage, as well as some hints at potential research studies.
translated by 谷歌翻译
我们提出了三种新型的修剪技术,以提高推理意识到的可区分神经结构搜索(DNAS)的成本和结果。首先,我们介绍了DNA的随机双路构建块,它可以通过内存和计算复杂性在内部隐藏尺寸上进行搜索。其次,我们在搜索过程中提出了一种在超级网的随机层中修剪块的算法。第三,我们描述了一种在搜索过程中修剪不必要的随机层的新技术。由搜索产生的优化模型称为Prunet,并在Imagenet Top-1图像分类精度的推理潜伏期中为NVIDIA V100建立了新的最先进的Pareto边界。将Prunet作为骨架还优于COCO对象检测任务的GPUNET和EFIDENENET,相对于平均平均精度(MAP)。
translated by 谷歌翻译
非正交多访问(NOMA)是一项有趣的技术,可以根据未来的5G和6G网络的要求实现大规模连通性。尽管纯线性处理已经在NOMA系统中达到了良好的性能,但在某些情况下,非线性处理是必须的,以确保可接受的性能。在本文中,我们提出了一个神经网络体系结构,该架构结合了线性和非线性处理的优势。在图形处理单元(GPU)上的高效实现证明了其实时检测性能。使用实验室环境中的实际测量值,我们显示了方法比常规方法的优越性。
translated by 谷歌翻译
我们在用原子的集合设置线性方程的轨道限制系统。我们的主要贡献是此类系统解决性的决策程序。该过程适用于温和有效性假设下的每个字段(甚至是交换环),并将给定的轨道限制系统降低到许多有限的系统:总体上许多有限的系统,但是当输入系统的原子尺寸固定时,多一项是多项式的。为了获得该过程,我们进一步推动了轨道限制集合产生的向量空间理论,并表明每个这样的向量空间都允许轨道限制。这种基本财产是我们开发的关键工具,但也应该引起更广泛的兴趣。
translated by 谷歌翻译
Adaptive partial linear beamforming meets the need of 5G and future 6G applications for high flexibility and adaptability. Choosing an appropriate tradeoff between conflicting goals opens the recently proposed multiuser (MU) detection method. Due to their high spatial resolution, nonlinear beamforming filters can significantly outperform linear approaches in stationary scenarios with massive connectivity. However, a dramatic decrease in performance can be expected in high mobility scenarios because they are very susceptible to changes in the wireless channel. The robustness of linear filters is required, considering these changes. One way to respond appropriately is to use online machine learning algorithms. The theory of algorithms based on the adaptive projected subgradient method (APSM) is rich, and they promise accurate tracking capabilities in dynamic wireless environments. However, one of the main challenges comes from the real-time implementation of these algorithms, which involve projections on time-varying closed convex sets. While the projection operations are relatively simple, their vast number poses a challenge in ultralow latency (ULL) applications where latency constraints must be satisfied in every radio frame. Taking non-orthogonal multiple access (NOMA) systems as an example, this paper explores the acceleration of APSM-based algorithms through massive parallelization. The result is a GPUaccelerated real-time implementation of an orthogonal frequency-division multiplexing (OFDM)based transceiver that enables detection latency of less than one millisecond and therefore complies with the requirements of 5G and beyond. To meet the stringent physical layer latency requirements, careful co-design of hardware and software is essential, especially in virtualized wireless systems with hardware accelerators.
translated by 谷歌翻译
本文对视频编码中的新范例进行了视频编码,与人类和机器的解码视频的消耗相关的视频编码。对于这样的任务,考虑了压缩视频和特征的联合传输。在本文中,我们专注于Sift关键点上的功能的考虑因素。与从原始视频中提取的SIFT关键点相比,它们可以从解码视频中提取与关键点数量的损耗以及它们的参数。为量化参数和比特率的功能研究了HEVC和VVC的这种损失。在论文中,我们建议将残差特征数据与压缩视频一起发送。因此,即使对于强烈压缩的视频,避免了整个SIFT键点信息的传输。
translated by 谷歌翻译
特征选择是一个棘手的问题,因此实用算法通常折衷对计算时间解的精度。在本文中,我们提出了利用近似,或代理人的多层次的一种新型的多阶段特征选择框架。这种框架允许使用的包装在计算上更多有效的方式方法,显著增加的特征选择的解决方案的质量可以实现的,尤其是在大型数据集。我们设计和评估是一个替代辅助遗传算法(SAGA),它利用这个概念在勘探早期阶段,引导进化搜索。 SAGA只有切换到在最后开发阶段评估原有的功能。我们证明了上限SAGA替代辅助阶段的运行时间是雪上加霜等于包装GA,而且更好地扩展为实例数高位复杂性的归纳算法。我们证明,使用来自UCI ML储存部14个集,在实践中SAGA显著降低与基线相比包装遗传算法(GA)的计算时间,而汇聚成显著精度更高的解决方案。我们的实验表明,SAGA能以接近最优的解决方案不是一个包装GA快三倍到达,平均。我们还展示了旨在防止代理人误导向错误的最优进化搜索进化控制方法的重要性。
translated by 谷歌翻译
培养的网站,等效地作为具有状态的矢量加法系统,是具有广泛应用程序的建立的并发模型。到达性问题,在我们询问是否从给定的初始配置中存在一系列达到给定最终配置的有效执行步骤,是该模型的中央算法问题。问题的复杂性仍然存在,直到最近,验证并发系统中最困难的开放问题之一。仅在2015年由LEROUX和SCHMITZ提供的第一个上限,然后由同一位作者提炼于2019年的非原始递归Ackermannian上限。在1976年,Lipton所示的指数空间下限仍然是唯一已知的40多年来,在2019年Czerwi {\'n}滑雪道,Lasota,Lazic,Leroux和Mazowiecki的突破性非基本下限。最后,今年由Czerwi {}滑雪和orlikowski宣布了一个匹配的Ackermannian下限,独立于Leroux,建立了问题的复杂性。我们的主要贡献是对前建筑的改进,使其概念上更简单,更直接。在我们的方式,改善了与固定维度(或等效的Petri网)的载体添加系统的下限:虽然Czerwi {\'n} Ski和Orlikowski证明$ f_k $ -hardness(硬度$ k $ th水平在grzegorczyk层次结构中)在维度$ 6k $ 6k $,我们的简化施工会收益超过$ 3k + 2 $的$ f_k $ -hardness。
translated by 谷歌翻译